隨著生成式 AI 的快速發展,現在各國政府和國際組織開始意識到需要針對這項技術進行監管,來確保其在創新與發展的同時,避免潛在風險和社會問題。生成式 AI 的應用範圍從內容創作、語音生成帶來了前所未有的機會,但也對資料隱私、著作權和倫理道德問題造成了新的挑戰。今天分享目前生成式 AI 的主要法規發展,包括美國、歐盟和中國。
歐盟在 2023 年推出了全球首個 AI 法案,這一法規透過風險分級系統來對不同類型的 AI 技術進行分類和管理。根據風險等級,AI 技術分為不可接受的風險 (Unacceptable Risk)、高風險 (High Risk)、透明度要求 (Transparency Requirements),如 ChatGPT 不是高風險,但需要遵守透明度要求。
而且歐盟的法案還要求生成式 AI 生成的內容必須明確標示,有助於減少誤導性資訊的傳播。這些監管措施主要在提高技術透明度和使用者的信任,並對使用 AI 的倫理問題有了明確規範。
2023 年 10 月,美國總統簽署了一項行政命令,提出了 「安全、可靠且值得信賴的開發及使用AI行政命令 (Executive Order on the Safe, Secure, and Trustworthy Development and Use of AI)」 。在 2024 年 8 月,加州通過了名為 「先進人工智慧模型安全創新法案 (Safe and Secure Innovation for Frontier Artificial Intelligence Models Act)」 (SB 1047) 的法案。該法案針對那些成本超過 1 億美元或運算能力極高的 AI 系統,要求開發者要進行全面的安全測試,以防止 AI 技術被用於網路攻擊、製造生物武器等高風險行為。且法案還要求為 AI 系統要設置「安全開關」(kill switch),在緊急情況下能夠迅速停用系統。
中國在 2024 年推出了新的生成式 AI 安全草案,該草案明確要求生成式 AI 服務供應商在使用訓練資料前,必須進行嚴格的安全審查,並確保資料來源的合法性和多樣性。而且該草案還強調 AI 模型的安全保護,要求供應商實施全程安全管理策略,防止模型被攻擊或遭受其他威脅。
中國的法規不僅限於資料安全,還明確規定了 AI 內容生成的責任,要求供應商確保生成內容合法且合乎規格,並避免涉及虛構資訊、暴力、色情或政治敏感話題。
目前法規比較像是提前預防,應該還是要等到有更具體的影響,才會有更完善的規定。正如 Uber 進入市場後對台灣帶來的影響一樣,法規的真正完善往往是在技術對社會產生具體影響之後才會出現。